Сегодня мы поговорим о механизме дедупликации данных в StarWind Enterprise iSCSI. Эта функциональность появилась, начиная с версии 5.6. Она позволяет создавать образы виртуальных дисков для хранилищ iSCSI, которые будут содержать только уникальные данные записываемых на них файлов (vmdk, vhd и прочее). Дедупликация работает "на лету", поэтому на хранилище попадают только уникальные блоки:
Объем, занимаемого этим хранилищем, будет расти по мере заполнения его уникальными данными файлов на нем хранящихся. Это позволяет значительно экономить на необходимых дисковых емкостях и понижает совокупную стоимость решения по построению инфраструктуры хранения данных виртуальных машин (c iSCSI она и так весьма небольшая).
Для создания дедуплицированного хранилища нужно выбрать тип диска Advanced Virtual (см типы дисков StarWind) и выбрать его подтип - Deduplicated disk device:
Обратите внимание - сейчас эта возможность экспериментальная (версия StarWind Enterprise 5.6). В следующих релизах она уже будет полностью поддерживаться. Поэтому ее пока используйте только для тестовых или некритичных систем.
Далее создаем новое устройство для виртуального диска, которое определяет максимальный объем хранилища (в нашем случае 5 ГБ):
Далее видим настройки, которые пока нельзя менять. Они определяют размер кэша для записи на данное виртуальное устройство, размер файла метаданных для виртуального диска и объем памяти, требующийся для работы с устройством.
Но реально на хранилище он занимает пока только вот столько:
Добавляем хранилище в vSphere Client:
Видим емкость в 5 ГБ:
Теперь создаем виртуальную машину на этом хранилище с диском в 2 ГБ (этот vmdk-диск указываем как thick, а не thin - то есть он создается сразу файлом в 2 ГБ):
И видим, что общее пространство, занимаемое диском StarWind Enterprise изменилось незначительно (в данном случае я уже был в середине установки Windows 2003 Server в этой виртуальной машине):
То есть в данном случае не просто Thin Provisioning, а полноценная дедупликация данных на лету средствами StarWind Enterprise.
Скачать замечательный продукт StarWind Enterprise iSCSI можно по этой ссылке, а покупают его по этой ссылке.
Как вы знаете в последнем релизе платформы виртуализации VMware vSphere 4.1 было заявлено множество новых возможностей. Одна из них весьма важна с точки зрения производительности в части работы виртуальных машин с системой хранения. Эта технология называется VMware vSphere VAAI, то есть vStorage API for Array Integration.
Итак, что такое VMware vSphere VAAI. Это комплекс технологий компании VMware, разработанный в сотрудничестве с производителями дисковых массивов (потому и API), предназначенный для передачи некоторых операций виртуальных машин по работе с дисками на сторону массива. В этом случае хост-сервер виртуализации VMware ESX / ESXi при выполнении стандартных процедур в среде виртуализации при работе ВМ с дисковой подсистемой просто дает команду массиву (или массивам) сделать определенные действия, при этом сам хост не гонит через себя все те данные и команды, которые он раньше был вынужден прогонять. То есть, это - Hardware Offloading операций с СХД.
Ну а раз это аппаратно-зависимая вещь, то это означает, что сам массив должен в своем Firmware поддерживать vSphere VAAI (у которой еще бывает несколько видов - так называемые "примитивы"). Чтобы узнать поддерживает ли ваш хост VAAI нужно пойти в VMware Hardware Compatibility Guide и поискать свой дисковый массив в категории "Storage/SAN". Там все сделано несколько криво, но нужно искать в Supported Releases следующую сноску:
VAAI primitives "Full Copy", "Block Zeroing" and "Hardware Assisted Locking" are supported with vmw_vaaip_xxx plug-in
xxx - это идентификатор плагина от VMware
Ну и, конечно, ваш хост VMware ESX / ESXi должен быть версии 4.1 или выше. И помните, что на некоторых массивах VAAI по умолчанию выключена, поэтому вам нужно почитать документацию о том, как ее включить. Кроме того, функциональность VMware vSphere VAAI есть только в изданиях VMware vSphere Enterprise и Enterprise Plus (см. сравнение изданий).
Теперь, какие примитивы (то есть типовые операции с СХД) реализует VMware vSphere VAAI:
Full Copy / Clone Blocks / XCOPY – функция, позволяющая передать на сторону массива возможности копирования объектов виртуальной инфраструктуры без задействования операций четния-записи со стороны сервера VMware ESX 4.1. Эту функцию также называют Hardware Offloaded Copy и SAN Data Copy Offloading.
Write Same / Zero Blocks – возможность обнуления больших массивов блоков на дисковых устройствах для быстрого создания дисков vmdk типа eager zero thick.
Atomic Test and Set (ATS) –возможность защиты метаданных тома VMFS как кластерной файловой системы в ситуациях, когда большое количество хостов ESX имеют разделяемый доступ к одному хранилищу. Также эта функция называется Hardware Assisted Locking.
Давайте рассмотрим как эти компоненты VAAI работают и для чего они нужны.
Full Copy
Используя этот примитив, дисковый массив по команде VMware vSphere осуществляет копирование виртуальной машины (а самое главное для нас копирование диска VMDK) без участия сервера ESX / ESXi и его стека работы с подсистемой хранения (соответственно, не гоняется трафик и не дается нагрузка на CPU). В этом случае гипервизор рассказывает хранилищу, какие блоки занимает виртуальная машина, а оно уже делает все остальное по копированию блоков.
Виртуальная машина может копироваться как в пределах одного хранилища, так и между двумя массивами, если они поддерживают функциональность XCopy. Наиболее интересный способ применения данной техники - это массовое развертывание виртуальных машин из шаблонов, которое больше всего востребовано в VDI-инсталляциях (например, в решении для виртуализации корпоративных ПК предприятия VMware View 4.5).
Еще один важный аспект применения - операция Storage vMotion, которая требует копирования виртуальных дисков машины.
С vSphere VAAI операции по копированию блоков данных хранилищ виртуальных машин занимают меньше времени (в некоторых случаях оно сокращается на 95%):
Ну а вот такие результаты нам выдает Storage vMotion:
Кроме того, данная технология интегрирована и с функциональностью "тонких" (thin) дисков как самой VMware, так и механизмом Thin Provisioning сторонних вендоров.
Write Same / Zero Blocks
За счет этой технологии сервер VMware ESX / ESXi может дать команду хранилищу обнулить блоки виртуальных дисков типа Eager zeroed thick (см. типы дисков). Эти диски являются самыми безопасными (блоки чистятся при создании) и самыми производительными (при обращении к блоку его не надо обнулять и тратить ресурсы), но занимали очень много времени на их создание. Теперь с техникой VAAI этот процесс сильно ускоряется, что позволяет использовать диски eagerzeroedthick чаще (например, для машин с включенной Fault Tolerance). Напомню, что сейчас по умолчанию в VMware vSphere создаются диски типа Zeroed thick disks.
Теперь одинаковые команды ввода-вывода на сторадж от сервера ESX / ESXi дедуплицируются, а массиву дается команда на повторение одинаковых команд для разных блоков. На эту тему есть отдельное видео:
Atomic Test and Set (ATS) или Hardware Assisted Locking
За счет этой техники vSphere VAAI существенно уменьшается число операций с хранилищем, связанных с блокировкой LUN на системе хранения. Как вы знаете, при работае виртуальных машин возникают конфликты SCSI Reservations, связанные с тем, что некоторые операции вызывают блокировку всего LUN для обновления метаданных тома VMFS. Операций этих много: запуск виртуальной машины (обновляется lock и создаются файлы), развертывание новой ВМ, создание снапшота, миграция vMotion и т.п.
Нехорошо также, что при использовании тонких дисков (например для связанных клонов VMware View) также происходит блокировка LUN при выделении нового блока растущему диску (надо обновлять метаданные - см. тут). Это, прежде всего, приводит к тому, что возникает ограничение на количество размещаемых на LUN виртуальных машин, чтобы конфликтов SCSI Reservations не было слишком много.
Теперь же, за счет VAAI, эти операции передаются на сторону дискового массива, который при необходимости обновить метаданные тома не блокирует весь LUN, а лочит только секторы метаданных, которые требуется обновить. Все это делается массивом безопасно и надежно. Отсюда вытекает уменьшение числа конфликтов SCSI Reservations и ,как следствие, лучшая производительность и увеличения числа ВМ на LUN.
Ограничения VMware vSphere VAAI
Недавно мы писали про Data Mover'ы - это компоненты VMware ESX / ESXi, отвечающие за работу хост-сервера с хранилищами при копировании данных. Поддержкой VAAI заведует компонент fs3dm – hardware offload. Он пока еще молодой, поэтому не поддерживает некоторых сценариев использования. Соответственно все или некоторые техники VAAI у вас не будут работать в следующих случаях:
Исходный и целевой тома VMFST имеют разные размеры блоков
Исходный файл лежит на том RDM, а целевое хранилище - это не том RDM
Исходный тип диска VMDK - это eagerzeroedthick, а целевой - thin
Исходный или целевой тип диска VMDK VMDK - один из типов sparse или hosted (не платформа vSphere)
Исходная виртуальная машина имеет снапшот
Блоки хранилища, где лежит виртуальная машина не выровнены (по умолчанию vSphere Client выравнивает блоки автоматически)
Как включить VMware vSphere VAAI
Как уже было сказано выше, со стороны хранилищ VAAI может быть выключена и нужно почитать документацию на СХД. На хостах ESX / ESXi по умолчанию VAAI включена. Проверить это можно, перейдя в Configuration > Advanced Settings и увидев следующие параметры, напротив которых стоят единицы:
DataMover/HardwareAcceleratedMove (это возможности Full Copy)
DataMover/HardwareAcceleratedInit (это Zero Block)
Если ваше хранилище не поддерживает VAAI - ничего страшного, хост ESX / ESXi будет работать софтовыми дедовскими методами.
Как проверить, работает ли vSphere VAAI?
Очень просто, откройте категорию Storage на вкладке Configuration в vSphere Client и посмотрите в последний столбик.
Статус Unknown означает, что хост еще не обращался к операциям, которые поддерживаются VAAI (то есть, это дефолтный статус). Если вы сделаете какую-нибудь операцию с VAAI (например, Copy/Paste виртуального диска больше 4 МБ), то VAAI попробует отработать. Если он отработает успешно - выставится статус Supported, ну а если нет - то Not Supported.
Опросить стораджи можно также из командной строки:
Улучшения и новые возможности VMware ESX/ESXi 4.1 Update 1
Поддержка до 160 логических процессоров хост-сервера
Платформа подготовлена к новому процессору Westmere-EX
Включены дополнительные драйвера устройств:
дисковые устройства 3ware и Neterion
Включена технология Intel Trusted Execution Technology (только для ESXi). Это поддержка модулей Trusted Platform Module (TPM) для доверенной загрузки хост-серверов (поддерживается также коммуникация с vCenter). Почитайте вот эту статью о TPM.
Добавлены: RHEL 6, RHEL 5.6, SLES 11 SP1 for VMware, Ubuntu 10.10 и Solaris 10 Update 9
Улучшенная производительность для виртуальных машин, реализующих нагрузки баз данных и терминальные службы. Быстрее теперь работа с дисковой подсистемой и эффективнее расходуется CPU (непонятно, включено ли это в данный релиз).
Улучшения и новые возможности VMware vCenter Update Manager4.1 Update 1
VMware Update Manager получил новый интерфейс для постконфигурации продукта, включая сам VUM и утилиту VMware Update Manager Download Service (для скачивания обновлений отдельно от VC и VUM). Теперь из GIU можно сбросить пароль для соединения с БД, сконфигурировать настройки Proxy и поменять SSL-сертификаты.
Исправления безопасности и различные багофиксы
Улучшения и новые возможности VMware vCenter Orchestrator4.1 Update 1
Исправления безопасности и различные багофиксы
Скачать VMware vSphere 4.1 Update 1 можно по этой ссылке. Помните, что перед обновлением хост-серверов ESX / ESXi нужно сначала обновить VMware vCenter. И да, помните о багах обновления на Update 1, которые у VMware стали доброй традицией.
В конце 2010 года фирма Intel сообщила о своем желании приобрести одного из ведущих поставщиков антивирусных решений — McAfee. На первый взгляд, — несуразное решение, но только на первый. Встраивание механизмов защиты от вирусов непосредственно в аппаратуру компьютера — это многообещающая идея и новая ступень в развитии антивирусных технологий.
Таги: VMachines, Hardware, Security, Intel, McAfee, Red Pill,
В предыдущей статье был описан гипердрайвер, использующий технологию аппаратной виртуализации, думаю любой, кто удосужился прочитать данную статью хотя бы до середины, понял, что эта технология позволяет осуществлять тотальный контроль над вычислительной системой в целом, операционной системой и прикладными программами.
Компания VMware выпустила очень полезный и нужный Performance Best Practices for VMware vSphere 4.1, который нужно прочитать каждому администратору более-менее серьезной виртуальной инфраструктуры серверов ESX. Содержание вполне конкретное:
Hardware for use with VMware vSphere
ESX and virtual machines
Guest operating systems
Virtual infrastructure management
Например:
To establish a network connection between two virtual machines that reside on the same ESX system, connect both virtual machines to the same virtual switch. If the virtual machines are connected to different virtual switches, traffic will go through wire and incur unnecessary CPU and network overhead
Интересно, что в документе есть рекомендации по выбору и оптимизации аппаратного обеспечения, которые нужно прочитать до покупки серверов и других компонентов виртуальной инфраструктуры.
Как вы знаете, в VMware vSphere есть возможность предоставления прямого доступа виртуальной машины к устройствам хост-сервера (например, HBA-адаптер или сетевая карта), которая называется VMDirectPath. С помощью этой техники многие пытались в предыдущих версиях vSphere прикрутить к виртуальной машине USB Controller, но теперь USB поддерживается для проброса в виртуальные машины, поэтому VMDirectPath в основном используют для Ethernet-адаптеров.
Кстати USB-устройства пробрасываются не через VMDirectPath (об этом можно почитать вот в этой KB).
Но использование VMDirectPath не позволяет использовать множество распределенных служб VMware vSphere, таких как VMware vMotion, DRS, Fault Tolerance и других, так как привязывает виртуальную машину к устройствам сервера, а, соответственно, к самому серверу. Сейчас вариантов применения VMDirectPath практически не осталось, так как в драйвере сетевого адаптера vmxnet3 компания VMware сделала множество нововведений - и он теперь работает гораздо более производительно, и его использование не сильно уступает ситуации, когда используется Passthrough-устройство (вот здесь подробнее).
Чтобы VMDirectPath работал нужно, чтобы хост-сервер VMware ESX / ESXi поддерживал технологии Intel Virtualization Technology for Directed I/O (Intel VT-d) или AMD IP Virtualization Technology (IOMMU).
Настройка VMDirectPath происходит в vSphere Client на вкладке Configuration для хоста ESX / ESXi (ссылка Configure Passthrough):
Надо отметить, что есть случаи, когда VMDirectPath позволяет получить прирост в производительности сетевых адаптеров для виртуальных машин (у Intel есть интересное видео на эту тему, а у VMware - результаты тестов).
Кстати VMDirectPath на хосте VMware ESX / ESXi можно отключить вот так. Ну и, конечно, надо почитать статейку VMware VMDirectPath I/O.
Таги: VMware, vSphere, VMDirectPath, ESX, ESXi, VMachines, Hardware, USB
Данная статья основывается на инструкции, написанной Joseph Holland, Kepak Group «How to configure VMWare ESXi to shutdown using an APC SmartUPS. v3.0_20090312», и является ее переработанным и дополненным переводом. Для настройки интеграции UPS APC и VMware ESXi понадобится установленный виртуальный модуль vMA.
Одной из новых возможностей решения для виртуализаци настольных ПК VMware View 4.5 стала возможность организации ярусного хранения данных виртуальных машин (Tiered Storage), где для различных типов данных в зависимости от требований к производительности можно использовать различные типы устройств хранения.
Мы уже писали о средстве VMware View Composer, которое позволяет использовать связанные клоны (Linked Clones) в целях экономии дискового пространства. Composer использует один базовый образ виртуального ПК на основе которого развертываются новые унифицированные виртуальные ПК с данными пользователей.
Напомним некоторые понятия хранения данных виртуальных ПК:
Master Replica – это основной образ виртуального ПК с установленной гостевой ОС и приложениями, хранимый как шаблон.
Replica – это клон Master Replica на базе дисков растущих по мере наполнения (Thin Provisioned). Он создается для каждого нового пула виртуальных ПК на своем datastore. Этот образ используется для создания новых десктопов-связанных клонов, которые зависят только от Replica, что позволяет вносить изменения в Master Replica, не затрагивая дочерние виртуальные машины пула.
Linked Clone – это связанный клон на базе реплики, который представляет собой совокупность: Измененные данные реплики (Delta Footprint) + Журнал (Log) + Диск с пользовательскими данными (User Data Disk)
В VMware View 4.5 появились новые типы дисков:
Persistent Disk – это и есть старый User Data Disk, который теперь носит такое название. Можно хранить persistent disk внутри диска гостевой ОС либо на отдельном vmdk.
Disposable Disk – это отдельный диск для хранения файлов подкачки гостевой ОС и временных файлов. View Manager удаляет эти файлы после выключения связанного клона. Этот тип диска позволяет замедлить рост данных, занимаемых виртуальным ПК.
Теперь Linked Clone представляет собой следующую комбинацию:
Измененные данные реплики (Delta Footprint) + Журнал (Log) + Диск с пользовательскими данными (Persistent Disk) + Временный диск (Disposable Disk)
Для чего это сделано? Очевидно, что эти типы данных, из которых состоит виртуальная машина требуют различного быстродействия, что ведет за собой хранение этих объектов на разных типах носителей.
Через View Administrator можно выбрать различные Datastores для описанных выше объектов, которые могут размещаться на флеш-носителях SSD (самые быстрые), Fibre Channel (помедленнее) и SATA (самые медленные). Само собой, чем быстрее носитель - тем он дороже, поэтому, например, реплику (которая одна для всего пула и всеми машинами используется) можно размещать на SSD.
А вот пользовательские диски можно размещать и на носителях SATA. Картина в целом такова:
Красиво? По-моему, самое оно для всяких там Enterprises.
Вместе с VMware vSphere 4.1 компания VMware выпустила также новую версию продукта Site Recovery Manager (SRM), предназначенного для создания катастрофоустойчивой виртуальной инфраструктуры.
Помимо функций, имеющихся в версии 4.0, VMware SRM 4.1 получил следующие новые возможности:
Поддержка VMware vSphere 4.1
Возможность изменять system shutdown retry timeout в гостевой ОС при кастомизации IP-адресов, а также datastore discovery timeout в процессе восстановления
Поддержка виртуальных сетей на базе VMware vNetwork Distributed Switch (vDS) на основном и резервном сайте
Поддержка IP customization для гостевых ОС Windows 7 и Windows Server 2008 R2
Серверная часть VMware SRM 4.1 теперь только 64-битная (клиентская осталась 32-битной), соответственно, она не совместима с vCenter 4.0.
Экосистема партнеров решения SRM теперь включает дисковые массивы 14 вендоров: 3PAR, Compellent, Dell | EqualLogic, EMC, FalconStor, Fujitsu, Hitachi, HP, IBM, LSI, NEC, NetApp, Sun, Xiotech.
Скачать VMware Site Recovery Manager 4.1 можно по этой ссылке.
Интересный пример совместного использования технологий HP и Microsoft показал нам Calvin Zito. За счет Live Migration в Hyper-V и репликации в массивах HP EVA происходит перемещение виртуальных машин между датацентрами (и серверами, и хранилищами). И все это делается на большие расстояния!
Итак, Long Distance Cluster Extension EVA Live Migration with Hyper-V:
Таги: Microsoft, Hyper-V, HP, Live Migration, Storage, Hardware, Replication, VMachines
Компания StarWind, известная своим продуктом StarWind Enteprise HA для создания отказоустойчивых iSCSI хранилищ под серверы виртуализации VMware vSphere, Citrix XenServer и Microsoft Hyper-V, выпустила интересный бесплатный продукт FCoE Initiator.
Программа устанавливается в ОС Windows и позволяет получить доступ к хранилищам данных Fibre Channel через сеть передачи данных Ethernet. Типа как данное решение позволяет существенно сэкономить на инфраструктуре доступа к SAN за счет имеющихся IP-сетей (особенно для виртуальной инфраструктуры). Fibre Channel умирает, господа. Данное решение позволит вам потихоньку начать избавляться от FC.
Мануал по StarWind FCoE Initiator находится здесь.
Еще на VMworld 2009 компания VMware анонсировала технологию Storage IO Control (SCIO), которая должна появиться в следующих релизах платформы виртуализации VMware vSphere (по слухам уже в версии 4.1). Суть данной технологии - корректное распределение нагрузки на систему хранения данных (СХД) для виртуальных машин.
Сейчас у виртуальных машин есть такие настройки как Shares для категории Disk, которые определяют приоритеты виртуальных машин по нагрузке на СХД в рамках одного сервера VMware ESX. То есть, если у нас есть два сервера VMware ESX и виртуальные машины на них, то приоритеты нагрузки на storage будут распределены следующим образом при наличии параметров shares:
То есть очередь дискового массива пропорционально делится между хостами VMware ESX, а уже для каждого хоста его процент очереди делится на части в зависимости от Shares виртуальных машин.
Такой механизм не отражает реальную ситуацию по отношению к требованиям виртуальных машин к вводу-выводу, поскольку даже наиболее критичные сервисы в виртуальных машинах на хосте VMware ESX в кластере не могут получить больше, чем 1/n от очереди массива для тома VMFS / LUN, где n - число хостов ESX.
Технология Storage IO Control (SCIO) позволяет изменить данную ситуацию за счет двух техник:
Вычисление задержек (latency) на том VMFS для запуска механизма SCIO (говорят о 20ms и более)
Изменение пропускной способности канала виртуальных машин хоста к СХД за счет изменения глубины очереди HBA-адаптера (device queue depth)
Регулировка очереди со стороны HBA-адаптера позволяет более корректно распределить нагрузку на СХД между сервисами в виртуальных машинах в соответствии с их параметрами shares:
Как мы видим, наиболее критичный сервис (красный цвет), при условиях заданных shares для нескольких хостов ESX, позволяет потреблять 60% от того, что может выдать дисковый массив для данного тома VMFS. Это соответствует соотношению:
Механизм Storage IO Control для хостов VMware ESX включается при превышении порога latency для тома VMFS, определяемого пользователем, что позволяет надежно защитить наиболее критичные сервисы в виртуальных машинах от всплесков нагрузки на систему хранения данных в виртуальной инфраструктуре.
Многие пользователи сейчас уже тестируют и внедряют решение для виртуализации настольных ПК VMware View 4. Как оказалось, в некоторых случаях при соединении с десктопом под управлением Windows XP с помощью клиента VMware View Client возникает ошибка connect desktop failed:
При этом соединение с виртуальным ПК VMware View 4 по RDP работает.
Если посмотреть в Event log, то там будет вот такое сообщение:
Failed loading plugin: wswc_PCOIP.dll, error 126 (the specified module could not be found)
Если поискать эту библиотеку - ее действительно не обнаружится. Данная проблема связана с отсутствием поддержки инструкций SSE2 в процессоре ПК, где установлен VMware View Client. Читаем в документе "View Manager Administration Guide":
Client hardware requirements include the following:
800Mhz or higher processor speed
x86‐based processor with SSE2 extensions
Таким образом, в этом случае вы не сможете заставить работать ваш ПК в качестве клиента VMware View 4 по протоколу PCoIP. Поэтому необходимо предварительно посмотреть VMware Compatibility Guide на соответствие вашего устройства требованиям VMware View. Чтобы проверить наличие функций SSE2 в процессоре вашего ПК, воспользуйтесь утилитой CPU-Z:
Заждались? Но, не волнуйтесь, он уже здесь - пятый выпуск обзора бесплатных программ и утилит для виртуальной инфраструктуры VMware vSphere / ESX / ESXi. Сегодня мы рассмотрим все самые интересные бесплатные средства администрирования и управления серверами ESX и ESXi, а также приведем ссылки на все заметки VM Guru, опубликованные ранее по этой теме.
Если у вас был физический сервер HP ProLiant, а вы решили перенести его в виртуальную машину на VMware vSphere / ESX, то в ВМ наверняка должны остаться Management Agents от HP. Чтобы они не мешались на виртуальной машине, где виртуальное Hardware уже не от HP, можно воспользоваться утилитой HP Proliant Support Pack Cleaner от Guillermo Musumeci:
Нажимаем кнопку Remove PSP (Proliant Support Pack) - и виртуальная машина очищена от агентов HP.
С процессорами семейства Intel Nehalem технология Hyperthreading снова вернулась в нашу жизнь, демонстрируя в некоторых тестах до 20%-30% прироста производительности по сравнению с тем, когда она отключена. Ранее в документации VMware vSphere для технологии непрерывной доступности виртуальных машин Fault Tolerance требовалось, чтобы Hyperthreading был disabled.
Теперь компания VMware прояснила пользователям, что это требование неактуально. Hyperthreading в состоянии enabled полностью поддерживается технологией Fault Tolerance. Цитата из VMware KB1013428:
Does Fault Tolerance support Intel Hyper-Threading Technology? Yes, Fault Tolerance does support Intel Hyper-Technology on systems that have it enabled. Enabling or disabling Hyper-Threading has no impact on Fault Tolerance.
Не секрет, что по высказываниям президента компании можно понять, в каком направлении она разивается и планирует развиваться. Для VMware сейчас стоит множество вопросов как для компании, которая со временем может превратиться в "облачного гиганта", занявшего большую часть рынка виртуализации и Cloud Computing. Поэтому очень интересно послушать, что говорит Пол Мориц (Paul Maritz), глава VMware, на всемирной конференции по виртуализации VMworld 2009:
О возможной поддержке серверами VMware vCenter управления хостами Microsoft Hyper-V:
if we have enough customer demand, we'll consider supporting Hyper-V in the future
О недавно вышедшем продукте Microsoft Hyper-V R2:
Hyper-V R2, "is now where we were three years ago".
О горячей миграции (VMotion) между серверами на базе процессоров Intel и AMD:
"nobody's building clouds on [AMD] architecture ... it's all on x86 ... that war's over"
О том, что уже 500 000 пользователей скачали бесплатный VMware ESXi:
VMware "would like to know what they're doing" with it
Если вам необходимо узнать, поддерживается ли технология аппаратной виртуализации Intel VT или AMD-V на хосте VMware ESX из состава vSphere, можно воспользоваться следующей инструкцией... Таги: VMware, ESX, IntelVT, AMD-V, Hardware
В прошлом году компания AMD анонсировала технологию Rapid Virtualization Indexing (RVI), известную также как Nested Page Tables. Если быть кратким то эта технология позволяет виртуализовать страницы памяти и отдать их под прямой контроль гостевой системы, не затрагивая (и, соответственно, не перегружая) гипервизор. С аналогичной технологией в 2009 году вышла и компания Intel, выпустив Extended Page Tables (EPT) в линейке процессоров Xeon 5500... Таги: IntelVT, AMD-V, Hardware, VMware, ESX, EPT, RVI
Компания VMware является признанным лидером в производстве решений для обеспечения отказоустойчивости инфраструктуры виртуальных серверов. Катастрофоустойчивое решение VMware Site Recovery Manager позволяет организовать резервный виртуальный ЦОД на случай аварии в основном датацентре.
Поскольку использование VMware SRM полностью опирается на ПО для репликации данных дисковых массивов сторонних вендоров, при его внедрении требуется изучить определенный набор документов, который мы и приводим ниже для массивов LeftHand, HP, NetApp, Dell и EMC...
Таги: VMware, SRM, Storage, Hardware
Бурное развитие рынка технологий виртуализации за последние несколько лет произошло во многом благодаря увеличению мощностей аппаратного обеспечения, позволившего создавать по-настоящему эффективные платформы виртуализации, как для серверных систем, так и для настольных компьютеров. Технологии виртуализации позволяют запускать на одном физическом компьютере (хосте) несколько виртуальных экземпляров операционных систем (гостевых ОС) в целях обеспечения их независимости от аппаратной платформы и сосредоточения нескольких виртуальных машин на одной физической. Виртуализация предоставляет множество преимуществ, как для инфраструктуры предприятий, так и для конечных пользователей. Компания Intel первая увидела в новой технологии источник получения технологического превосходства над конкурентами и начала работу над усовершенствованием x86 архитектуры процессоров в целях поддержки платформ виртуализации. Вслед за Intel компания AMD также присоединилась к разработкам в отношении поддержки аппаратной виртуализации в процессорах, чтобы не потерять позиции на рынке. Таги: VMachines, Hardware, IntelVT, AMD-V